OpenAI 的另一位高管在被问及 Sora 视频生成器是否使用了 YouTube 数据时,同样陷入了困境。
Sora视频生成器发布后不久,就被网友发现存在物理交互的bug,例如模型对物理世界的理解不足,导致小狗走路时前腿出现不自然的交错问题。
OpenAI 在二月份推出的视频生成工具Sora引起了 AI 社区的广泛关注。Sora 展示出的流畅、逼真的视频似乎远远领先于竞争对手。然而,Sora 的首次亮相隐藏了一些重要细节。
4月27日,在2024中关村论坛-未来人工智能先锋论坛上,清华大学联合生数科技正式发布了,中国首个长时间、高一致性、高动态性视频大模型——Vidu。
Sora又有新动向。3月25日,OpenAI首次公布了使用Sora制作的创意剧情短片。不同于此前的OpenAI主导生成,这次释放出的视频创作者是艺术家、设计师、创意工作者和电影人。
据Factorial基金估计,OpenAI的Sora每小时在NVIDIA H100上生成5分钟的视频,相当于每天能生成120分钟的视频。报告进一步指出,为支持TikTok和YouTube的创作者社区,大约需要89,000个NVIDIA H100GPU。
近日,UT奥斯丁等机构提出的StreamingT2V技术引发了广泛关注,将AI视频生成推向了新的高度。这项技术突破了以往视频长度的限制,实现了生成高度一致且长度可扩展的视频。
自上个月人工智能模型Sora问世以来,OpenAI一直在积极地与视觉艺术家、设计师、创意总监和电影制作人等各类创意人士进行合作。
OpenAI首席技术官米拉·穆拉蒂(Mira Murati)在接受采访时透露,Sora文生视频工具计划在今年内正式推向公众。此外,OpenAI还计划为Sora加入音频生成功能,进一步丰富视频的场景和情感表达。
《华尔街日报》当地时间 13(今)日刊登了对 OpenAI 首席技术官米拉・穆拉蒂的采访。她表示,Sora 将在今年推出,“可能要等几个月”。
Sora计划在今年内发布。据悉,Sora将推出一种全新的视频生成技术,能够在短短几分钟内生成一段20秒的720p视频,而不需要花费几个小时的时间。
由颜水成和程明明领衔的研究团队在Sora核心技术上进行了重要的升级,推出了Masked Diffusion Transformer V2。该模型在ImageNet benchmark上取得了惊人的成绩,FID score达到1.58,刷新了State-of-the-Art(SoTA)。
仅凭几十个提示词,就能生成一段流畅完整、视角多元的视频,其内容质量几乎能以假乱真,甚至不亚于专业拍摄团队,这就是OpenAI首款文生视频产品Sora,一经发布便激起千层浪,让全球感受到新的AI震撼。
意大利数据保护机构 (Garante) 周五宣布,已对微软支持的 OpenAI 公司开发的一项服务展开调查,这个名为 Sora 的服务可以根据文本提示生成视频。
3月4日 消息:北大团队联合兔展启动了复现Sora的计划,该项目名为Open Sora。这一举措的背后是资源有限的情况下,团队希望汇集开源社区的力量,以尽可能完成复现工作。
2月29日,著名AI平台Lightricks在官网宣布,推出生成式AI电影制作平台—LTX Studio。
大语言模型(LLM)在生成文本内容方面非常强,但在理解、生成视频、图像等方面略显不足。尤其是在Sora一夜爆红之后,让人们意识到未来主流模型一定是文本+音频+图像+视频的多模态生成、理解功能。
近日,汤姆猫在机构调研中透露,海外子公司正积极与OpenAI、Google、Stability AI等领先公司的人工智能模型展开合作,以利用其强大的大模型进行内容创作。
-------------没有了-------------